首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 探索脑机接口新境界:InteraXon Muse S 头带体验与开发指南

    什么是InteraXon Muse S?InteraXon Muse S是一款轻便、无线的脑电监测头带,专为冥想追踪、睡眠监测和神经反馈训练而设计。 相比前代产品,Muse S在舒适度和数据精度方面都有显著提升。 冥想辅助应用Muse S可以实时监测用户的脑电波状态,通过α波和θ波的强度判断冥想深度,为用户提供实时反馈。2. InteraXon Muse S为脑机接口技术的普及提供了重要平台。 随着开发社区的不断壮大和相关资源的丰富,基于Muse S的创新应用必将层出不穷。

    67610编辑于 2025-09-01
  • 来自专栏生信技能树

    使用MuSE软件找somatic mutation

    首先下载安装MuSE mkdir -p $HOME/biosoft/MuSE cd $HOME/biosoft/MuSE wget http://bioinformatics.mdanderson.org /Software/MuSE/MuSEv1.0rc_submission_b391201 mv MuSEv1.0rc_submission_b391201 muse chmod 777 muse $HOME 针对N-T配对的bam文件运行MuSE 首先是在单个病人的N-T配对的bam文件测试MuSE软件的用法,这里有两个命令需要衔接一下,首先是muse call然后是muse sump ,需要参考基因组以及 /muse call -O $sample -f $ref $tumor_bam $normal_bam $HOME/biosoft/MuSE/muse sump -I $sample.MuSE.txt $HOME/biosoft/MuSE/muse sump -I $sample.MuSE.txt -E -O$sample.vcf -D $dbsnp fi fi i=$((i+1))

    1.6K61发布于 2020-10-26
  • 来自专栏HaHack

    脑机接口概述及Muse头环Python开发基础

    阅读原文:http://www.hahack.com/codes/bci-and-muse-headband-development/

    2K11发布于 2020-02-11
  • 从脑波冥想到全球专利:InteraXon Muse 的知识产权护城河之路

    一、Muse 是什么?Muse 是一款配备多通道 EEG(脑电图)传感器的智能头环,能实时读取用户的脑电波,并通过耳机反馈声音,辅助用户进行专注训练、冥想或放松。 二、知识产权:Muse 成功的底层逻辑InteraXon 并不仅仅是一家科技公司,它是一家 高度重视知识产权的科技公司。 多层次 IP 防护战略Muse 的知识产权组合包括: 技术专利:覆盖 EEG 传感器、信号处理、个性化反馈机制等核心算法; 商标:Muse 品牌在北美与欧洲均有注册; 商业机密:算法模型与云端处理逻辑不公开但具有关键价值 例如与 Myndlift 的合作就表明 Muse EEG 技术在远程神经反馈(NFT)治疗中的有效性。 三、IP 战略的实际成果 已拥有北美与欧洲多项专利与注册商标; 避免了多次潜在的专利纠纷; 为后续产品迭代(如 Muse S Athena)打下保护基础; 吸引了多轮战略投资,如 Clavis Foundation

    44810编辑于 2025-07-01
  • 来自专栏爪哇缪斯

    面试题27:GC算法——复制算法

    复制算法在JVM堆中的应用 由于Eden区于S0和S1比例默认是8:1:1,新生代的空间=Eden区+S0/S1=90%,那么浪费的空间也只有10%而已。 查看JVM某个参数的值: muse@muse:/Users/muse/Desktop> jinfo -flag SurvivorRatio 11303 -XX:SurvivorRatio=8 muse@muse:/Users/muse/Desktop> jinfo -flag PretenureSizeThreshold 11303 -XX:PretenureSizeThreshold=0 // 默认值是0,意思是不管多大都是先在eden中分配内存 muse@muse:/Users/muse/Desktop> jinfo -flag

    23910编辑于 2023-05-09
  • 来自专栏脑机接口

    使用CNN-LSTM混合深度学习分类基于MUSE采集的运动想象EEG信号

    Muse electrodes position 该设备由加拿大的InteraXon开发,目前该公司在脑电采集、情绪控制等领域非常火热,甚至谷歌都有将它收购的计划。 这款叫做Muse的脑电设备目前在IndieGoGo上进行预售式众筹,零售价只要200美元,可以说是相当亲民了。 然后对20s的数据使用3s时间窗进行分割,50%重叠。最终每个被试每动作产生329个样本量的数据集,每个样本大小是750*20。750是时间序列(Timesteps),20是空间成分。 Sample of a user’s EEG signalfor the five waves by channel. Model Architecture Proposalwith 3s window size 训练结果 对于一般的BCI系统,识别率在85%以上就可以应用在日常生活中。

    1.9K30发布于 2020-11-11
  • 来自专栏量子位

    效率碾压DALL·E 2和Imagen,谷歌新模型达成新SOTA,还能一句话搞定PS

    这次,他们的新模型Muse(缪斯)在CC3M数据集上达成了新SOTA(目前最佳水平)。 比DALL·E 2和Imagen更高效 说回谷歌刚刚公开的Muse。 首先,就生成图片的质量来说,Muse的作品大都画质清晰、效果自然。 与DALL·E 2、Imagen等像素空间的扩散模型相比,Muse用的是离散的token,并且采样迭代较少。 另外,和Parti等自回归模型相比,Muse使用了并行解码,效率也更高。 除此之外,为了进一步证实Muse的出图效率,研究者还对比了Muse与其他模型的单张图像生成时间: 在256x256、512x512的分辨率上Muse均达到了最快速度:0.5s和1.3s。 不过值得一提的是,目前Muse还没有正式发布。 有网友调侃,虽然它应该很香,但以谷歌的“尿性”,Muse离正式发布可能还有很长时间——毕竟他们还有18年的AI都没发呢。

    37710编辑于 2023-02-28
  • 来自专栏高端IT

    关于Vue移动端框架(Muse-UI)的使用(说明书,针对不愿看文档的童鞋)

    一、安装 1、npm安装 npm i muse-ui -S 或者 CDN安装 <link rel="stylesheet" href="https://unpkg.com/<em>muse</em>-ui/dist/<em>muse</em>-ui.css "> <script src="https://unpkg.com/<em>muse</em>-ui/dist/<em>muse</em>-ui.js"></script> 2、字体安装 <link rel="stylesheet" href family=Roboto:300,400,500,700,400italic"> 如果你想使用muse内置的Roboto字体,这里可以选择安装 3、字体图标 <link rel="stylesheet 二、引入使用 1、完整 import Vue from ‘vue’; import MuseUI from ‘<em>muse</em>-ui’; import ‘<em>muse</em>-ui/dist/<em>muse</em>-ui.css’; Vue.use babel-plugin-import less less-loader -D 然后在 在根目录下找到.babelrc文件,修改如下: { “plugins”: [ [“import”, { “libraryName”: “<em>muse</em>-ui

    68540编辑于 2022-06-02
  • 来自专栏FreeBuf

    Pentest Muse:一款专为网络安全人员设计的AI助手

    简而言之,我们只需要把想做的事情告诉Pentest Muse,它就能够帮助我们完成想要的安全测试与评估任务。 Pentest Muse Web应用程序 除了命令行接口之外,该工具还提供了Web应用程序版本,广大研究人员可以直接点击【https://www.pentestmuse.ai/】访问Pentest Muse 在代理模式下,Pentest Muse能够帮助我们完成一系列简单的任务,例如「帮我们在url为xxx的目标上执行SQL注入测试」。 /signup上注册后,我们就可以使用Pentest Muse来管理API了,创建一个账号,打开Pentest Muse的命令行接口,程序将会提示我们进行登录。 项目地址 Pentest Muse: https://github.com/AbstractEngine/pentest-muse-cli https://www.pentestmuse.ai/

    56411编辑于 2024-06-25
  • 来自专栏专知

    机器翻译新时代:Facebook 开源无监督机器翻译模型和大规模训练语料

    ▌Facebook MUSE: 多语言词嵌入的开源Python库 ---- Facebook的开源的MUSE,是一个无监督和有监督的多语言词嵌入Python库,以无监督或有监督的方式对齐嵌入空间。 你可以使用下面命令下载英语(en)和西班牙语(es)的词嵌入: # English fastText Wikipedia embeddingscurl -Lo data/wiki.en.vec https://s3 fasttext-vectors/wiki.en.vec# Spanish fastText Wikipedia embeddingscurl -Lo data/wiki.es.vec https://s3 可以用下面方法来使用英语和西班牙语嵌入: # English fastText Wikipedia embeddingscurl -Lo data/wiki.en.vec https://s3-us-west fasttext-vectors/wiki.en.vec# Spanish fastText Wikipedia embeddingscurl -Lo data/wiki.es.vec https://s3

    3.2K110发布于 2018-04-12
  • 来自专栏AiCharm

    每日学术速递1.30

    GLIGEN's zero-shot performance on COCO and LVIS outperforms that of existing supervised layout-to-image 摘要: 我们提出了Muse,一个文本到图像的转化器模型,实现了最先进的图像生成性能,同时比扩散或自回归模型的效率高得多。 Muse是在离散标记空间的遮蔽建模任务上训练的:给定从预先训练的大型语言模型(LLM)中提取的文本嵌入,Muse被训练来预测随机遮蔽的图像标记。 与像素空间的扩散模型(如Imagen和DALL-E 2)相比,由于使用了离散的标记并需要较少的采样迭代,Muse的效率明显更高;与自回归模型(如Parti)相比,由于使用了并行解码,Muse的效率更高。 Muse 3B参数模型在零次COCO评估中实现了7.88的FID,同时还有0.32的CLIP得分。Muse还直接实现了一些图像编辑应用,而不需要对模型进行微调或反转:内画、外画和无遮挡编辑。

    35330编辑于 2023-05-15
  • 来自专栏生信技能树

    开发自己的TCGA数据库下载器就是怎么简单

    Variant Aggregation and Masking--muse_snv MuTect2 Variant Aggregation and Masking--mutect2_snv 然后是利用格式化字符串 for i in range(len(file_list)): cmd = 'wget -c https://gdc.xenahubs.net/download/TCGA-%s/ Xena_Matrices/TCGA-%s. %s.tsv.gz' % (name, name, file_list[i]) os.system(cmd) 最后,调用两个函数,完成下载过程。 Variant Aggregation and Masking" = "muse_snv", "MuTect2 Variant Aggregation and

    1.3K50发布于 2019-05-08
  • 来自专栏爪哇缪斯

    Docker入门与实战

    路径下muse.sql文件拷贝到容器cfa323cdc6bc中home目录下的 docker cp /home/muse/muse1.sql cfa323cdc6bc:/home docker cp STATUS PORTS NAMES 60394538fa5d mysql:5.7 "docker-entrypoint.s… @0e3eeb77a02c muse01]# ls [root@0e3eeb77a02c muse01]# touch a.txt [root@0e3eeb77a02c muse01]# ls a.txt ,分别是muse01和muse02 在容器中,进入muse01中创建一个文件 [root@iZ2ze5ffbqqbeaygcx7o4xZ dockerfiles]# docker run -it eb78333356a6 muse01]# ls [root@594282a5a5c4 muse01]# touch a.txt [root@594282a5a5c4 muse01]# ls a.txt CTRL+P+Q 退出容器

    53321编辑于 2023-05-10
  • 来自专栏生信技能树

    下载TCGA所有癌症的maf文件做signature分析

    总共是2.19GB的文件,每个癌症种类都有4种maf文件,分别是用mutect,muse,vanscan,somaticsniper这4款软件call 到的somatic mutation文件。 他们的方法描述如下: De novo mutational signature analysis was done using the Matlab Welcome Trust Sanger Institute’s ..somatic.maf.gz'TCGA.STAD.muse=read.table(file1,sep = '\t',quote="",header = T)TCGA.STAD.muse[1:5,1: ', chr = TCGA.STAD.muse[,5], pos = TCGA.STAD.muse [,6], ref = TCGA.STAD.muse[,11], alt

    3.7K130发布于 2018-03-09
  • InteraXon Muse:从脑电冥想到VR脑机接口的技术演进与应用前景

    由加拿大公司 InteraXon 开发的 Muse 系列产品,正是这一趋势中的代表。 二、Muse 脑电头环的核心技术Muse 是一款轻量级、便携式的 EEG 头环,内置 7 个高精度干电极,可实时采集用户脑电活动,并通过蓝牙将数据传输至移动端应用。 3.1 Muse VR 插件简介Muse VR 是一种专为 HTC Vive 与 Samsung Gear VR 设计的 EEG 扩展配件。 其 Muse 产品与 SDK 已在 NASA、哈佛大学、梅奥诊所等全球百余家科研机构部署。同时,Muse VR 项目体现了 EEG 与 XR 技术融合的广阔前景,有望推动神经科学从实验走向日常应用。 五、总结Muse 系列产品展示了消费级 EEG 设备在冥想、医疗与娱乐领域的巨大潜力。特别是其 Muse VR 项目,通过将脑机接口嵌入虚拟现实,为“沉浸式神经交互”铺平了道路。

    79900编辑于 2025-07-01
  • 来自专栏机器之心

    推理速度比Stable Diffusion快2倍,生成、修复图像谷歌一个模型搞定,实现新SOTA

    Muse 模型是建立在 Transformer (Vaswani et al., 2017) 架构之上。 ., 2022) 相比,Muse 由于使用了离散 token,效率显著提升。与 SOTA 自回归模型 Parti (Yu et al., 2022) 相比,Muse 因使用并行解码而效率更高。 下面我们看看 Muse 生成效果: 文本 - 图像生成:Muse 模型从文本提示快速生成高质量的图像(在 TPUv4 上,对于 512x512 分辨率的图像需要时间为 1.3 秒,生成 256x256 Muse 还提供了基于掩码的编辑,例如「在美丽的秋叶映照下,有一座凉亭在湖上」。 模型简介 Muse 建立在许多组件之上,图 3 提供了模型体系架构概述。 除了以上组件外,Muse 还包含可变掩码比率组件、在推理时迭代并行解码组件等。 实验及结果 如下表所示,与其他模型相比,Muse 缩短了推理时间。

    55310编辑于 2023-03-29
  • 来自专栏爪哇缪斯

    面试题45:介绍一下Redis中hash类型的实现方式是什么?

    127.0.0.1:6379> hset muse name muse (integer) 1 127.0.0.1:6379> hset muse age 20 (integer) 1 127.0.0.1 :6379> hset muse sex male (integer) 1 127.0.0.1:6379> hgetall muse 1) "name" 2) "muse" 3) "age" 4) "20 " 5) "sex" 6) "male" 127.0.0.1:6379> OBJECT encoding muse "ziplist" 据结构如下: ---- 【hashtable】 数据结构如下: (integer) 0 127.0.0.1:6379> OBJECT encoding muse "ziplist" 127.0.0.1:6379> hset muse name 12345678901234567890123456789012345678901234567890123456789012345 (integer) 0 127.0.0.1:6379> OBJECT encoding muse "hashtable"

    38520编辑于 2023-05-09
  • 来自专栏爪哇缪斯

    面试题30:垃圾收集器——并行回收器

    如果CPU数量大于8,并行线程数量为 3+(5*cpu_nums/8) 操作示例: muse@muse:/Users/muse/Desktop> jinfo -flag ParallelGCThreads muse@muse:/Users/muse/Desktop> jinfo -flag MaxGCPauseMillis 11303 -XX muse@muse:/Users/muse/Desktop> jinfo -flag GCTimeRatio 11303 -XX:GCTimeRatio muse@muse:/Users/muse/Desktop> jinfo -flag UseAdaptiveSizePolicy 11303 - muse@muse:/Users/muse/Desktop> jinfo -flag ParallelGCThreads 11303 XX:ParallelGCThreads

    27830编辑于 2023-05-09
  • 来自专栏新智元

    跨语种「AI同传」震撼登场!Meta谷歌连发重大突破,颠覆语音翻译

    基于反向翻译的重构损失 这种方法可以完全采用无监督的方式,来训练编码器-解码器S2ST模型。 其中,前半部分的输出被训练成输入语音频谱图文本的MUSE嵌入。后半部分在没有MUSE损失的情况下进行更新。 值得注意的是,源语言和目标语言共享同一个编码器。 基于MUSE嵌入的多语言性质,编码器能够学习源语言和目标语言的多语言嵌入空间。 - MUSE损失:MUSE损失衡量的是输入频谱图的多语言嵌入与反向翻译频谱图的多语言嵌入之间的相似性。 - 重构损失: 重构损失衡量的是输入频谱图与反向翻译频谱图之间的相似度。 由于Translatotron 3是一种无监督方法,因此研究人员使用了由ASR、无监督机器翻译(UMT)和 TTS(文本到语音)组合而成的级联S2ST系统作为基准。

    1.1K10编辑于 2023-12-05
  • 来自专栏DeepHub IMBA

    论文推荐:谷歌Masked Generative Transformers 以更高的效率实现文本到图像的 SOTA

    Muse构建在谷歌的T5之上,T5是一个大型语言模型,它接受各种文本到文本任务的训练,可通过掩码transformer 架构生成高质量图像。 Muse 从 T5 嵌入中继承了有关对象、动作、视觉属性、空间关系等的丰富信息;并学习将这些丰富的概念与生成的图像相匹配。 在他们的实证研究中,Muse与各种文本到图像生成任务的流行基准模型进行了比较。 Muse 900M参数模型在CC3M数据集上实现了新的SOTA, FID评分为6.06(越低越好),而Muse 3B参数模型在零样本COCO获得了7.88的FID评分,CLIP 分数为 0.32。 Muse展示了令人印象深刻的无需微调的零样本编辑功能,进一步证实了冻结的大型预训练语言模型作为文本到图像生成的强大而高效的文本编码器的潜力。

    86630编辑于 2023-02-01
领券